¿Sabes cómo es un pavo real bebé? La inteligencia artificial no y es un problema grave para Internet
Los pavos reales son uno de los animales más cautivadores para el ser humano. Fueron símbolo de belleza en la India, de donde son originarios, y después quedaron registrados en templos y obras artísticas persas, griegas y romanas. Hoy en día son uno de los animales más fotografiados, sobre todo por el plumaje iridiscente del macho y la apertura de su cola en la danza de cortejo. El aspecto de sus crías solía ser menos conocido, hasta que en los últimos días se han convertido en uno de los fenómenos de la red, con cientos de imágenes y vídeos de “pavos reales bebé”. Solo hay un problema: son todas falsas.
Se trata de alucinaciones de la inteligencia artificial. Los algoritmos, con menos información en sus bases de datos sobre el aspecto real de los paveznos, mezclan características de los machos adultos con el de las crías, que en realidad son de color pardo, similares a una codorniz. El resultado han sido híbridos irreales que rápidamente cautivaron la atención de los usuarios. Innumerables cuentas que se dedican a la monetización de contenido se lanzaron a compartir estas creaciones con comentarios como “el pavo real bebé será tu momento auuu del día” o “un pequeño pavo real que nació para brillar”.
Algunas publicaciones avisaban de que las imágenes estaban hechas con IA, la mayoría no. Ninguna destacaba que en realidad las crías de pavo real no tienen nada que ver con esa recreación. Aunque muchos usuarios recalcaban que eran generaciones de IA, muchos caían en la trampa y preguntaban dónde se pueden adoptar pavos reales, como esta publicación de TikTok acumula casi 30.000 comentarios. Pero lo peor aún estaba por llegar.
La explosión de popularidad de las crías de pavo real falsas trascendió a las redes sociales y pasó a Google, cuyo buscador de imágenes priorizó las alucinaciones de la inteligencia artificial por encima de las fotografías verdaderas. “Me picó la curiosidad, así que busqué en Google 'bebé pavo real' para ver qué aspecto tenía y la mitad de los resultados eran AI. Estamos jodidos, ¿verdad?”, contestaba un usuario en una de las publicaciones con imágenes falsas.
“Tuve que buscar 'bebé pavo real' justo ahora para demostrar a alguien en Facebook que lo que publicaron fue IA, y alrededor del 60% de las imágenes están todas hechas con IA. Google se está muriendo. Duckduckgo es sólo ligeramente mejor. La IA está empeorando Internet y haciendo a la gente más tonta”, comentaba otro. La tendencia es más acusada en la búsqueda en inglés que en castellano.
Las nuevas normas de la UE sobre contenidos generados con inteligencia artificial obligan a las plataformas a etiquetarlos como tales de manera clara para que no puedan llevar a error al usuario. Fuentes comunitarias han explicado a elDiario.es que Google también tiene la obligación de hacerlo. Sin embargo, este aviso no se muestra en su buscador. Este medio ha preguntado por este extremo a la multinacional, que no ha enviado respuesta sobre este caso concreto.
Al contrario, desde Google han explicado que de manera general sus sistemas pueden “no mostrar siempre las mejores imágenes” pese a sus medidas de control, pero inciden en que no es un problema derivado del uso de la IA. “Esto ha sido así mucho antes de la llegada del contenido generado por IA, y la gente nunca ha tenido reparos en señalar cuando mostramos imágenes inexactas, de baja calidad u ofensivas en la Búsqueda”, alegan.
El 'slop' de la inteligencia artificial
Los algoritmos de las redes sociales llevan meses potenciando la visibilidad de los contenidos generados con IA. La consecuencia ha sido una inundación de imágenes y vídeos artificiales promovidos por cuentas que buscan monetizar sus contenidos o inflar sus cifras de seguidores. Estos contenidos muestran a personas, lugares o animales creados con esta tecnología, pero también completas alucinaciones, como se denomina al fenómeno en el que la IA combina fragmentos de información que pueden parecer plausibles pero de manera completamente equivocada.
Uno de los mayores ejemplos de esta última tendencia es el jesucristo-gamba que se viralizó en Facebook cuando la IA empezó a mezclar la imagen de Jesús con elementos de la naturaleza hasta provocar imágenes surrealistas. El de los “pavos reales bebé” es un ejemplo en el sentido contrario, en el que alucinaciones de la inteligencia artificial rellenan espacios de desconocimiento para muchas personas.
Este tipo de avalanchas de contenidos basura creados por algoritmos ya tiene nombre. Ha sido bautizado como 'slop', se traduce como “bazofia” y en poco tiempo podría convertirse en el hermano gemelo del término spam. Su único objetivo es captar la atención humana con falsificaciones realistas o creaciones imposibles. Es tan fácil y barato de generar que se está usando masivamente para alimentar interacciones y construir una economía de la IA chatarra. En muchas ocasiones el proceso está totalmente automatizado y son los propios algoritmos los que se encargan de detectar qué se está viralizando, generar cientos de copias e inundando espacios digitales con contenido falso o sin sentido.
De la misma forma que el spam puede llenar una bandeja de correo con emails basura haciendo mucho más complicado detectar las comunicaciones relevantes, el slop tiene la capacidad de hacer lo mismo con las redes sociales y los buscadores. Lo ocurrido en torno a los huracanes Helene y Milton que han arrasado en los últimos días EEUU se ha convertido en la primera prueba de lo que está por venir.
Llevo casi 20 años trabajando en catástrofes y no se me ocurre ninguna otra catástrofe grave en la que haya habido tanta desinformación
“Llevo casi 20 años trabajando en catástrofes y no se me ocurre ninguna otra catástrofe grave en la que haya habido tanta desinformación”, ha expresado una profesora de gestión de emergencias en la Academia Marítima de Massachusetts al New York Times. El problema con el que se están encontrando los servicios de emergencia es que las llamadas de ciudadanos advirtiendo de situaciones falsas que habían visto en las redes estaba haciéndoles perder el tiempo en las labores de rescate. La Cruz Roja ha alertado de que los bulos estaban desalentando a los supervivientes de buscar la ayuda de las autoridades, creyendo los bulos de que ni esta organización ni las autoridades se habían desplazado a la zona.
Uno de los principales debates en el país ha sido cómo oportunistas han aprovechado las enormes cuotas de atención que han generado estas catástrofes para verter enormes cantidades de imágenes falsas buscando obtener réditos económicos y políticos. Por un lado, reconocidos influencers de extrema derecha, aliados cercanos de Donald Trump o incluso congresistas republicanos han viralizado la imagen falsa de una niña víctima de los huracanes abrazando un cachorro. La representación es de muy mala calidad y claramente artificial, pero cuando otros usuarios se lo han reprochado, estos perfiles se han negado a retirarlas.
Pese a que este tipo de catástrofes siempre han derivado en la presencia de bulos sobre ellos en la red, la escena informativa tras Milton y Helene ha sido diferente. No solo es que la IA haya permitido crear desinformación más fácil y rápido que nunca, sino que un gran número han compartido estos contenidos artificiales a sabiendas de que eran falsos o se niegan a retirarlos porque no son manipulaciones propiamente dichas. “No sé de dónde ha salido esta foto y, sinceramente, ni siquiera importa. Está grabada en mi mente para siempre”, ha justificado la congresista republicana Amy Kremer. “Hay gente que pasa por cosas mucho peores que las que se muestran en esta foto. Así que la dejo porque es emblemática del trauma y el dolor que vive la gente ahora mismo”, ha declarado.
Las imágenes de la niña afectada por los huracanes también han aparecido en Google sin un indicativo de que estaban generadas por IA. La multinacional tampoco ha contestado a las preguntas de elDiario.es sobre este hecho.
Por debajo pasan otros casos que contaminan con slop solo para aumentar su visibilidad. Uno de los casos que se han documentado es una página llamada Coastal Views que antes de la llegada de los huracanes compartía imágenes generadas con inteligencia artificial sobre playas o auroras boreales. Con la explosión informativa de Helene y Milton, se ha convertido en un foco de desinformación de fotografías falsas que hace pasar por reales.
“Uno de los usos más siniestros y repugnantes de la IA que he encontrado son estas fotos falsas de las inundaciones de los Apalaches en Carolina del Norte y Tennessee”, lamentaba el usuario de X que lo sacó a la luz. “Estas publicaciones están destinadas a generar participación y dinero publicitario para el propietario de la página a expensas de todo el inconmensurable sufrimiento humano que se está produciendo en Asheville y sus alrededores. Estas páginas no ofrecen información actualizada sobre la situación, ni enlaces a donaciones o listas de personas desaparecidas”, continuaba.
El slop es un fenómeno novedoso y aún está por medir su impacto en los usuarios. En cambio, ya se han publicado los primeros análisis de los efectos que puede tener sobre la propia tecnología de la inteligencia artificial. Estos sistemas se nutren de los datos que extraen de Internet para sus mecanismos de aprendizaje, pero la creciente presencia de contenido basura generado por otras IA puede llevarlas a “colapsar”, según un reciente estudio.
Entrenarse con contenidos sintéticos o slop hace que las IA pierdan diversidad, repitan cada vez más elementos o frases y su capacidad para manejar situaciones nuevas o no anticipadas en su entrenamiento disminuya drásticamente. “Al ser entrenados con datos contaminados, entonces perciben erróneamente la realidad”, recalcaban los investigadores. Un embudo de contenidos falsos que se puede ir haciendo cada vez más grande.
----
Este artículo se ha actualizado el 12 de octubre para incluir la respuesta de Google, enviada tras la publicación original.
33